安装pytorch2.2以上,启用sdpa(–opt-sdp-no-mem-attention,就可以不用安装xformers了。FlashAttention2是FlashAttention的改进...
浏览 82 次 标签: 【深度学习】sdwebui A1111 加速方案对比 xformers vs Flash Attention 2